论文翻译 FLAME: Differentially Private Federated Learning in the Shuffle Model

摘要

联邦学习(Federation Learning,FL )是一种很有前途的机器学习范式,它可以使分析器在不收集用户原始数据的情况下训练模型。为了保证用户隐私,差分隐私联邦学习得到了广泛的研究。现有的工作主要基于差分隐私的中心模型(curator model)本地模型(local model)。然而,两者都有利有弊。curator model允许更高的准确性,但需要可信的分析器。在local model中,用户将本地数据随机化后发送给分析器,虽然不需要可信分析器,但准确率有限。在这项工作中,通过利用最近提出的差分隐私混洗模型中的隐私放大(privacy amplification)效应,我们实现了两个模型的最佳方式,即平衡了curator model中的准确性和不依赖任何可信方的强隐私性。我们首先提出了shuffle模型中的联邦学习框架和在已有工作基础上扩展的一种简单协议(SS-Simple)。我们发现SS-Simple仅在联邦学习中提供了不充分的隐私放大效应,因为模型参数的维度相当大。为了解决这一问题,我们提出了一种增强型协议(SS-Double),通过欠采样来强化隐私放大效应。进一步,当模型规模大于用户数量时,为了提高效用,我们提出了一种采用梯度稀疏技术的改进协议(SS-Topk)。我们还对所提协议的隐私放大效应进行了理论分析和量化评估。在real-world数据集上的实验验证了SS-Topk比基于本地模型的联邦学习提高了60.7 %的测试准确率。值得注意的是,SS-Topk甚至比基于curator model的联邦学习提高了33.94 %的准确率。与非私有联邦学习相比,我们的协议SS-Topk下仅损失了1.48 %的准确率。


Introduction

联邦学习(Federation Learning,FL )是一种很有前途的机器学习范式,它可以使分析器在不收集用户原始数据而只进行本地更新的情况下训练一个中心模型。然而,已有研究表明,共享原始的本地更新可能会损害用户的隐私。为此,差分隐私联邦学习(differentially private federated learning)被广泛研究以提供形式隐私。现有的工作主要基于差分隐私的curator model( DP )或 local model( LDP )。基于curator model的FL ( DP-FL ) 会得到更好的准确率,但依赖于可信分析器来收集原始的本地更新。基于local model的FL ( LDP-FL ) 保留了很强的本地隐私,因为用户在将本地更新发送到不可信分析器之前对其进行随机化处理;但其效用较低。具体来说,对于隐私预算为个用户的一项比特求和任务,DP的误差可以达到;而LDP的误差是以为界的。

最近提出的安全混洗模型( secure shuffle model, SS )可以同时实现两种模型的最佳方式,即curator model的准确性和local model的强隐私性。shuffle模型在用户和分析器之间引入了一个混洗器( 如Figure 1(b)所示 ),在将用户的本地随机数据发送到分析器之前对其进行置换。混洗模型的精度增益由隐私放大效应(privacy amplification effect) 得到,这表明在差分隐私的中心视图中,经过混洗的本地随机发生器的(即,匿名化)输出比没有混洗的输出提供了更强的(增强的)隐私。相应地,在混洗模型中需要更少的本地噪声来保护与不可信分析器相同级别的隐私。

然而,在联邦学习中如何使用shuffle模型尚不清楚。尽管少数工作已经研究了诸如比特/实数求和以及直方图等基本任务,但是现有的协议可能并不适用于多维状态的聚合联邦学习。

更新向量的维度以维度因子加剧了本地噪声引起的误差。此外,由于参与一次迭代的用户数量通常为好几千,因此聚合操作会升级为高维任务。我们通过做出以下贡献来解决上述挑战:

image-20221216003545715

预备知识

Curator Model和Local model

在Curator Model中,可信分析器收集用户的原始数据(例如局部更新),并执行私有机制以保证不同的私有输出。隐私保护的目标是通过替换一个用户的数据来实现两个相邻数据集的任何输出不可区分,记为。我们有如下定义:

差分隐私机制的定义 :设一种机制满足差分隐私,如果对于任意两个相邻数据集和任意子集,有

然而,curator model假设可信分析器收集原始数据的可用性。定义2中的本地差分隐私不依赖于任何可信方,因为用户向服务器发送随机数据。若满足,则观察收集到的结果或其总和蕴含

本地差分隐私的定义:设一种机制满足本地差分隐私,如果对于任意两个输入和任意输出,有

混洗模型(The Shuffle Model)

混洗模型的协议由三个部分组成:,如图1 ( b )所示。

image-20221222223617803

现有的工作主要关注每个用户持有一维数据的基本任务。记个用户的数据为数据集。每个用户运行一个随机数发生器,将本地数据扰动为满足LDP的条消息。不失一般性,我们重点研究了的单消息协议。混洗器用均匀随机置换在接收到的消息上执行。解析函数将混洗后的消息作为输入,输出解析结果。

混洗模型中的隐私目标是保证满足DP,因为由不可信分析器执行,不必保护用户隐私。由后处理性质(post-processing property),协议达到了与相同的隐私级别。因此,我们重点分析了的不可区分性。的隐私可以被"放大"。也就是说,当每个用户在中应用本地隐私预算时,可以实现更强的DP隐私,且。与local模型相比,shuffle模型可以用更少的噪声来达到相同的隐私级别。“隐私毯子”为单消息协议提供了一个最优放大界。分析的直觉是将输出分布线性分解为真实数据分布和均匀随机"隐私毯"分布。表示从毯子分布输出一个元素的概率。利用算法1中的本地随机数发生器,其中,将输入值编码到离散域中,然后进行随机化。运行一个置换后,聚合混洗结果,并参照以下进行去偏

算法1的隐私放大边界如引理1所示,通用随机数发生器的效果在推论1中提取。对于域上具有Laplace机制的随机数发生器,。通过数值评估可以访问更严格的边界(即,更大的放大)。

image-20221223215712553

引理 1:对于,若满足LDP,则对于我们有,其中

推论 1:在shuffle模型中,若LDP的,其中满足DP当

组成和子采样属性

组成的属性对于差分隐私的curator和local模型都是通用的。

引理 2: DP机制族在自适应组合下满足DP

引理 3: DP机制族在自适应组合下满足DP

在引理4中,一个从数据库中随机抽取元素而不进行替换的机制导致了子采样操作下的隐私放大

引理 4:[通过子采样实现隐私放大] 如果机制在尺寸为大小的集合上关于替换关系满足DP,则满足DP。

 

FLAME框架

image-20221224201335334

然后,我们对分析器持有的中心DP进行说明。根据引理1对或其他通用的的数值评估可以得到一个放大的中心隐私。由引理3,我们很容易得到定理1中的向量级组成。推论2提炼出了从的放大。

定理 1: 对于任意相邻的数据集,它们在一个用户的维本地向量上存在差异,在SS - Simple协议中满足DP,其中

推论 2: 对于SS -Simple协议,当,放大的中心隐私为

双扩增(SS - Double)

定理 2:满足DP,其中

然而,在多维情形下,我们无法得到与类似的定理。直观上,这是因为混洗隐私放大的证明依赖于有界大小的相邻数据集,而子采样可能导致两个大小不同的相邻数据集。

image-20221226234226254

定理 3: 时,满足DP,其中

命题 1: 各维度估计均值的标准差为.

由于所有维度级别的数据集都被填充到相同的大小,并且DP在定理3的放大中成立,因此我们在定理4中展示了向量级DP的组合。采样率记为。我们在推论3中提取了从的放大效应。

定理 4: 对于任意一个本地用户向量不同的相邻数据集SS-Double协议中的维向量聚合协议满足DP,其中

推论 3:对于SS - Double协议,当,放大的中心隐私为

使用(Ss-Topk)提升效用

因此,我们有动机在定义3中使用基于匿名的度量来限制和保护索引隐私。我们记维度的大小是否在下的Top-,以及指标是否由选取。第一个不等式将敌手的成功率与联系起来,而第二个不等式保证了概率不大于1。直观地说,当时,索引隐私性最强,因为观察不会增加对抗成功率。

定义 3: 机制提供维向量的索引隐私,当且仅当对任意我们有

为了实现索引隐私,需要控制的概率。给定先验知识,如果每个用户向混洗器报告个维度,其中只有个索引为真实Top,则。将其代入定义中,有。因此,当设定时,满足top索引隐私。

image-20221230171437735

在处理后的向量上施加,采样个Top指标作为集合,从其余的非Top维度中随机采样作为。当个真值被扰动时,每个维度的隐私预算分裂为。然后将每个真实Top 维的值扰动为。每个非顶层维度用填充。然后将维填充到的列表中,并通过算法2中的第11行将其加密为个消息。

命题 2: top索引隐私的范围是,其中当时达到最强的索引隐私,当时没有实现索引隐私。

然后,我们阐明了索引隐私对混洗器和DP对分析器的兼容性。在算法3中使用,分析器只得到相同大小的每个维度的填充结果。因此,针对混洗器的index隐私不影响针对分析器的放大隐私DP。SS-Topk相同的情况下共享SS - Double中的双重放大效应。

最后,我们讨论了索引隐私与通信成本以及效用之间的权衡。给定一个期望的top索引隐私,每个用户可以在图4中选择一个有效的来实现它。每个用户的带宽取决于。正如命题1所暗示的,估计效用依赖于虚拟填充大小。因此,给定不影响均值估计的精度,因为虚拟值的个数是固定的。我们在定理5中证明了给定参数下的最强索引隐私性。

定理 5: 给定一个具有的协议,它允许每个用户的最强索引隐私是

Evaluations

我们在MNIST数据集和的逻辑回归模型上评估了学习性能。baseline包括非私有联邦平均( NP-FL ) [、带高斯机制的DP - FL (在有界DP定义下,我们将比较的灵敏度加倍)、带高斯机制的LDP - FL ( LDP )和拉普拉斯机制 ( LDP )以及我们提出的SS-SimpleSS-DoubleSS-Topk三种协议。

Conclusion

综上所述,我们提出了第一个基于混洗模型的差分私有联邦学习框架FLAME,在不依赖任何可信服务器的情况下获得更好的效用。我们的隐私放大效应和私有Top 选择机制显著提高了高维环境下的测试准确率。